#H200 GPU
群狼圍上來了!黃仁勳最大的競爭對手來了|矽谷觀察
黃仁勳終於得到了他最想要的東西。本周美國政府正式批准輝達向中國以及其他“經批准的客戶”出售高端的H200 GPU晶片,但需要向美國政府繳納25%的銷售提成。這一提成比例同樣適用於AMD、英特爾等其他美國晶片巨頭。不過,輝達最新的Blackwell和未來的Rubin系列GPU仍然禁止出口。這標誌著黃仁勳長達數月的遊說取得成功。過去半年時間,他不斷造訪佛羅里達與華盛頓,隨著川普總統一道出訪和出席國宴,向白宮宴會廳建設工程捐款,就是為了這一刻。就在上周,他再一次來到白宮會見總統,終於如願以償得到瞭解鎖禁運令。受這一利多消息推動,輝達股價盤後應聲上漲。受美國政府連續多道晶片加碼禁運令限制,過去兩年時間,輝達一步步失去迅猛增長的中國市場,丟掉了在AI GPU市場原先高達95%的份額。在輝達最核心的資料中心業務,中國市場的營收佔比也從原先的四分之一急劇下滑。心急如焚的黃仁勳在兩個月前公開抱怨,“我們已經失去了全球最大的市場之一,在中國市場完全出局,市場份額已經歸零。”即便是向美國政府繳納四分之一的提成,對輝達的業績營收也意義重大,因為中國AI GPU今年規模估計高達200億-300億美元(中商產業研究院資料)。然而,黃仁勳在努力爭取重新打開另一個市場的時候,或許還要擔憂自己的後方。因為群狼已經圍上來了:他們最大的AI晶片客戶,Google、亞馬遜、微軟這三大巨頭,即Hyperscalers(超大規模雲服務商),正在加速普及自己的自研晶片。輝達無疑是生成式AI時代的領軍公司。在AI晶片這個兆級賽道中,輝達以壓倒的性能優勢和CUDA平台優勢佔據主導地位,其GPU 產品線幾乎壟斷了八成 以上的市場份額。輝達也因此成為全球最具價值的上市公司,市值甚至一度突破5兆美元。雖然輝達資料中心業務營收高達1300億美元(最近財年),但卻存在一個巨大隱患:客戶集中度過高,過度依賴於幾大AI巨頭。其中,前兩大客戶營收佔比39%,前三大客戶營收佔比高達53%。據媒體猜測,黃仁勳的前五大客戶正是:微軟、Google、亞馬遜、Meta和甲骨文。而這前三大巨頭正在加速轉用自研晶片,同時拉攏第四大客戶。這些自研晶片的部署,不僅會直接減少輝達的晶片訂單,更有可能在公開市場給輝達帶來威脅。AWS低成本推理殺手在上周拉斯維加斯召開的re:Invent年度開發者大會上,全球雲端運算市場的領頭羊亞馬遜AWS連續公佈了一系列重磅產品,清晰地展示了在AI熱潮中佔據市場主導以及推動行業潮流變化的雄心。最引人注目的當屬亞馬遜新一代自研 AI 晶片:Trainium 3。 諸多媒體將Trainium3 譽為“對輝達的直接宣戰”。這是亞馬遜自2022年以來的第三代AI晶片,主打低成本與推理兩大優勢。AWS CEO馬特·加曼(Matt Garman)宣佈,第三代晶片訓練速度比前代快 4 倍,成本減半, 特別適合亞馬遜Nova 2 模型家族的部署,支援百萬晶片級叢集。 與輝達相當的 GPU 系統相比Trainium3 可節省 50% 訓練費用。現場演示顯示,Trainium3 在 Llama 3.1 訓練中,僅需 24 小時完成相當於 H100 叢集一周的任務。低成本是最大的賣點,AWS官方將 Trainium3 定位為輝達GPU的低成本替代品。他們表示,對於願意採用其 Neuron軟體棧和 Trainium實例的客戶,基於 Trainium 的實例可以將大型模型的訓練成本(通常還包括推理成本)比同類GPU叢集可以降低高達約 50%。亞馬遜此次大會的諸多發佈相當於擺明態度:要用自研晶片、自研模型、私有化部署以及智能體全家桶,把從訓練到推理、從雲端到本地、從通用模型到定製模型的整條 AI 賽道都牢牢攥在自己手裡。雲端運算巨頭AWS擺明自研方向,這無疑會對AI基礎設施市場的未來走向帶來重大影響。目前AWS 在雲端運算市場仍保持巨大領先優勢,為大大小小的客戶提供雲端 AI 算力,支援他們自由選擇各種大模型。AWS目前的市場份額超過三成,而排名二三位的微軟與Google市場份額為20%與16%。(基於Synergy Research的統計資料)從Anthopic到OpenAI再到Meta,諸多AI巨頭與創業公司都在廣泛使用亞馬遜的AWS雲服務。就在上個月,OpenAI宣佈與AWS簽署合作協議,七年採購價值380億美元的AI基礎設施服務。AWS還強調,Anthropic等 AI 初創公司已轉向 Trainium,節省了超過三成的預算。Google拉到Meta大客戶Google是行業最早自研晶片的巨頭,其第一代TPU早在2016年發佈,已經成為AI基礎設施巨頭挑戰輝達的行業標竿。就在上個月,Google在他們的Cloud Next雲端運算大會上發佈第七代TPU v7 Ironwood,進一步讓輝達感受到了壓力。Ironwood 的核心亮點是性能躍升:單晶片 FP8 計算達4.6 PFLOPS(每秒 1000 兆次浮點計算),比 第五代TPU提升 10 倍,是第六代TPU的 4 倍。Google強調 Ironwood 專為“高吞吐、低延遲”推理最佳化,適用於 Gemini 3 等多模態模型。相比輝達王牌的Blackwell,Ironwood 在能效上領先 20%,功耗僅 300W/晶片。 這得益於其 systolic array架構和自訂互連,可以專攻矩陣乘法等 AI 核心運算。Google在TPU 的演進上穩步前進:從 v1 的純訓練晶片,到 v7 原生支援 FP8,Google已覆蓋從邊緣裝置(Edge TPU)到超大規模 Pod 的全端。從戰略上看,Google 的 TPU 不僅是硬體,更是雲生態的“殺手鐧”。對輝達來說,Google帶來的威脅已經日益明顯。2025 年,Google的 AI 晶片市場份額預計已經達到 8%, 尤其在佔 AI 算力 80% 的推理領域。SemiAnalysis 分析稱,Ironwood “顯著縮小了與 NVIDIA 旗艦的浮點計算性能差距”。Google聲稱,使用 TPU 可將訓練成本降 40%,吸引了 Meta 等第三方客戶。據媒體報導,Meta已經計畫在2027年部署GoogleTPU,繞過輝達的晶片。GoogleIronwood 伺服器將交由富士康代工。而Meta正是輝達AI晶片的第四大客戶。這一打擊是雙重的。雖然黃仁勳依然以樂觀口吻應對GoogleTPU帶來的威脅,強調輝達的多平台相容與供應鏈優勢,認為巨頭自研晶片不會動搖輝達的“護城河”(生態和軟體棧),但他也不得不承認市場競爭會讓投資者感到擔憂。微軟搶不過巨頭量產延誤相比亞馬遜和Google在自研晶片方面的穩步推進和大規模部署,微軟在這領域暫時還在交學費,遭受了跳票挫折。微軟自研晶片首代 Maia 100 於 2024 年推出,專為自家的Azure AI 最佳化,今年開始大規模部署。但原本計畫今年發佈的 Maia 200(代號 Braga)的大規模量產已經推遲至2026 年。今年10月,微軟宣佈 Maia 100 已部署於 Azure 資料中心,支援 OpenAI 模型訓練。 這是微軟與博通合作開發的晶片,預計比輝達的H100晶片成本低40%。而未來三代(代號分別為Braga、Braga-R 和 Cobalt)計畫覆蓋訓練、推理和邊緣。Maia晶片的最大優勢自然是與微軟Azure的原生態結合——整合 DirectML 框架,吸引企業客戶私有化部署。Maia 系列聚焦多模態 AI,例如突出微軟Copilot的語音和視覺處理,單晶片 BF16 性能達 2 PFLOPS。微軟CTO凱文·斯科特(Kevin Scott)表示,公司未來將“主要使用自家晶片”,目標減少對輝達晶片的嚴重依賴。但微軟的這一目標卻遭到了Maia量產推遲的打擊。根據媒體報導,Maia 200量產延誤主要是由於設計變更、模擬不穩定等技術與內部因素。但另一方面,台積電的產能瓶頸也是現實限制因素。畢竟台積電先進製程(如 N3/N2/高級封裝)目前是全球最搶手的生產能力,輝達、蘋果、AMD等巨頭客戶都在爭搶產能。產線幾乎被預定一空,排期非常緊張。台積電通常會根據訂單時間、技術節點、客戶戰略價值等進行安排。微軟既不是台積電的大客戶,自身晶片設計也沒有完善,只能排在後面的非優先順序。微軟想減少對輝達的依賴,這是戰略必要,但晶片從設計到大規模量產之間仍有長期供應鏈競爭。在台積電那裡產能搶不過晶片巨頭,微軟只能轉向英特爾的18A節點,計畫在明年實現量產。這一延誤給微軟帶來了巨大的額外開支。如果Maia二代不能及時規模部署,微軟明年可能還要投入100億美元購買輝達晶片。性能vs成本巔峰對決雖然目前輝達依然在AI 晶片領域佔據絕對話語權,但 三大巨頭的自研浪潮正給市場帶來巨大變數。2025 年Google、亞馬遜和微軟先後發佈的最新自研晶片,預示著 2026 年將是一場“性能 vs. 成本”的巔峰對決。性能技術依然是輝達的核心優勢,Google微軟亞馬遜的自研晶片都只能強調成本優勢。輝達今年的Blackwell 架構B200 GPU,單晶片 FP8 計算能力達 20 PFLOPS(每秒千兆次浮點運算),比前代 H100 提升 4 倍。在推理任務中,Blackwell的能效比GoogleTPU 高出 30%,這得益於其先進的 NVLink 互聯技術和 Transformer 引擎最佳化。黃仁勳對此充滿信心,正如在 GTC 2025 大會上宣稱:“我們的 GPU 領先競爭對手整整一代。”這種領先不僅體現在峰值性能,還包括軟體棧的深度整合:CUDA 平台支援 4000 多個 AI 框架和庫,開發者生態龐大到“開箱即用”。這才是輝達的真正護城河。相比之下,AI巨頭們的自研晶片往往需額外適配,增加了開發者的遷移成本。但成本卻是AI巨頭自研晶片的最大賣點。亞馬遜Trainium3 已宣稱可將訓練成本降至前代的 50%, Google Ironwood TPU 在推理任務中,能效比輝達H100 高出 20-30%。進入 2026 年,這一差距將進一步拉大。此外,AI巨頭正通過“漸進式”策略蠶食輝達的CUDA優勢。Google的JAX 和 PyTorch/XLA 整合已覆蓋 70% AI 工作負載, AWS Neuron SDK 支援 Llama 和 Stable Diffusion 等開源模型, 而 微軟的DirectML 則無縫嵌入 Visual Studio,吸引企業開發者。亞馬遜AWS 計畫在 Trainium4 上整合 NVLink 相容技術,實現與 輝達GPU 的無縫混合部署,預計訓練費用再降 40%。 與此同時,2027年商用的GoogleTPU v8將引入光子互聯和更先進的 systolic array 架構,針對多模態模型如 Gemini 4 的推理最佳化,成本優勢或達 50% 以上。四分之一市場份額亞馬遜的目標是在明年達到50%的自研佔比,推動AWS在 AI 雲市場的份額從 31% 升至 35%。他們是Anthropic的最大投資者和雲服務商。因此Anthropic的大模型訓練主要靠AWS Trainium晶片。而GoogleTPU 的市場份額更是已悄然攀升至 8%。他們從今年開始向外部客戶積極銷售原先自用的TPU,目前的外部銷售佔比已經達到了20%。隨著2027年Meta轉用TPU,輝達將真正感受到Google帶來的競爭壓力。今年10月,Anthropic與Google簽署了價值數百億美元的協議,計畫使用多達100萬片TPU,其中包括40萬片Ironwood,其餘通過Google雲租賃。換句話說,現在AI大模型公司都在推動晶片多元化,儘可能同時使用多家晶片,而不是只依賴於輝達GPU。黃仁勳傳記作者、非常瞭解輝達的史蒂芬·維特(Stephen Witt)認為,“輝達最大的風險顯然是Google,如果Google證明他們可以用自家晶片維持領先AI開發,那麼這將給其他巨頭樹立榜樣。”即便加緊部署自研晶片,這些巨頭也會未來幾年繼續採購輝達。一個值得體會的細節是,Google和亞馬遜在發佈自研晶片時,都會提前通知輝達,因為他們希望繼續維持與輝達的良好關係,繼續保證自己的晶片供應。未來這些巨頭自研晶片會達到多少份額?黃仁勳的直接競爭對手、AMD CEO蘇姿丰對GoogleTPU給出了非常高的評價。“多年來,Google在 TPU 架構上做得很好。但 TPU 是一種更偏向特定用途的設計,它缺乏 GPU 所具備的可程式設計性、模型靈活性,以及訓練與推理能力之間的平衡。GPU 將高度平行架構與高可程式設計性相結合,從而能夠實現快速創新。”“從我們的角度來看,各種類型的加速器都有空間。然而,在未來五年內,GPU 仍將明顯佔據市場大部分份額,因為我們仍處於行業周期的早期階段,軟體開發者希望擁有實驗新演算法的靈活性。因此,給 ASIC 類加速器(三大巨頭的自研晶片都是)留出 20%–25% 的市場份額是合理的。”換句話說,她認為三大巨頭的自研晶片可能在未來奪走四分之一的市場 份額。而且,蘇姿丰還計畫AMD在未來3-5年,搶到兩位數的市場份額。以及,輝達在中國市場同樣要面臨華為、寒武紀等本土競爭對手。 (新浪科技)
輝達H200獲批 未來中國AI晶片格局分析
先說下結論,H200的短期解禁對中國AI晶片產業的直接影響有限,但長期將嚴重拖慢中國建立獨立、有競爭力的AI晶片生態系統的處理程序。此舉本質是美國在確保代差優勢的前提下,通過輸出上一代高性能產品,既滿足中國經濟需求以獲取高額利潤,又維持中國對其技術生態的依賴,從而遏制中國在AI基礎架構領域的自主突破。從H20到H200:性能的代際飛躍與法規背景的嬗變讓我們先來回顧一下當H20誕生的背景。2023年10月17日,美國商務部工業與安全域(BIS)更新了針對中國的先進計算出口管制規則(即“1017規則”)。該規則設定了兩個關鍵的性能密度閾值,以決定晶片是否需要許可證且“推定拒絕”:性能密度閾值一:晶片的總算力(TPP)除以晶片面積(die size)必須低於一個特定值。性能密度閾值二:晶片的總算力(TPP)除以晶片尺寸的平方(即TPP/(晶片尺寸)^2)必須低於另一個特定值。輝達最初為中國市場設計的合規晶片H800(基於Hopper架構的H100降規版),因在互連頻寬上受限,但計算核心未做大改動,其性能密度仍可能觸及或超過BIS設定的閾值。因此,為了完全合規並獲得出口許可,輝達被迫推出了性能進一步大幅閹割的H20。H20不僅在互連上受限,更在核心計算單元(SM)數量、核心頻率、記憶體頻寬上進行了深度削減,使其總算力(TPP)大幅降低至約2,368,確保其性能密度落在BIS允許的範圍內。一定得瞭解美國到底是怎麼做的限制,我們才能有分析的基礎,連怎禁怎算性能密度都搞不明白,分析出來的東西必然也會有所缺失。H200的性能躍升:對“1017規則”事實上的突破本次獲批的H200是Hopper架構的滿血版資料中心GPU。關鍵參數對比如下:顯然,H200的性能(尤其是TPP)已遠超為符合“1017規則”而生的H20。其獲批出口,並非因為“1017規則”被修改,而是BIS在執法上採取了更靈活的方式,通過發放特別許可證的方式,為超出限制的硬體開了綠燈。這標誌著美國對華晶片管制策略從“嚴格禁止”轉向“管制性開放”,即在確保對華保持至少一代(對比Blackwell)技術代差的前提下,允許上一代旗艦產品進入中國市場。與Blackwell的差距作為參照,輝達當前最新的Blackwell架構旗艦晶片(如B200/B300)性能更為恐怖。美國允許對中國出口H200而非Blackwell,清晰表明了其“放行舊款,鎖死新款”的核心策略,旨在維持至少18-24個月的技術代差。H200與中國國產AI晶片的參數與技術對比根據Bernstein報告的資料對比,中國國產最強AI晶片與H200仍存在全方位差距:中國國產晶片在單卡峰值算力上正在快速追趕,但在決定實際可用性的製程、封裝、尤其是軟體生態和叢集解決方案上,與H200代表的國際主流水平存在代際差距。Bernstein報告的輝達與中國國產各家AI晶片的性能天梯圖,筆者認為相對合理,因為從製程,晶片面積的物理層面,他們的TPP差距是完全合邏輯的。2024-2025年中國AI晶片市場格局2024-2025年:“多種途徑滿足算力”的過渡期,2024-2025年中國AI算力需求並未因管制而停滯,而是通過 “六條腿走路”的混合模式得以滿足:1.採購合規的輝達H20(2024年約百萬張,25年上半年交付約40~50萬,下半年為零)。2.通過特殊管道獲取受限的H100/H200(2024年約40-50萬張)。3.在海外(如新加坡、中東)建設或租賃資料中心。4.採購中國國產GPU(升騰、寒武紀、崑崙芯等,2024年合計約30-45萬張)。5.CSP(雲服務商)自研ASIC晶片(如阿里平頭哥、百度崑崙)。6.軟體最佳化(如模型小型化、低精度訓練)。關鍵特徵:中國國產晶片基數低但增長快:2024年本土AI晶片出貨約190-210萬張,其中中國國產佔比仍低,但寒武紀、升騰等廠商出貨量在2025年均預計實現翻倍以上增長。H20不受歡迎:由於性能差且存在“後門”安全疑慮,中國CSP採購H20意願低,其庫存積壓嚴重。總量受限,結構變化:2025年本土部署的AI晶片總數預計與2024年持平(約200萬張),但中國國產佔比將顯著提升,增量算力需求主要由海外資料中心承接。2026年市場格局預測H200入局後的新博弈隨著H200在2025年底獲准進入,2026年中國AI晶片市場將呈現以下新局面:輝達份額強勢回升:H200預計將在2026年實現 “百萬張等級”的出貨,迅速奪回其在華高端訓練市場的份額。其成熟的即插即用特性將深受大廠青睞。中國國產晶片繼續高增長,但路徑分化:○ 華為升騰:憑藉信創市場基本盤和持續技術迭代,預計出貨量將達到140-160萬張,成為中國國產絕對主力,但主要市場可能仍集中在政務、國企及部分推理場景,但隨著升騰NPU的架構調整,2026年CSP業務將有所斬獲,預計25~35萬張。○ 其他中國國產GPU:如寒武紀(預計14-17萬張)、沐曦、摩爾線程等,將繼續在 “性能-生態-成本”的夾縫中求生存,重點拓展對CUDA生態依賴較低、或對中國國產化有強制要求的細分市場。○ CSP自研ASIC:預計達到30萬張規模,主要用於自身業務的特定推理或部分訓練負載,是巨頭實現供應鏈自主的關鍵一環。總體格局: 2026年中國國產晶片總出貨(按單Die計)有望達到 200萬顆左右,實現高速增長。然而,H200的百萬級出貨將牢牢卡住AI產業皇冠上的明珠——高端智能訓練市場。中國國產晶片的“高增長”更多是源於基數低和在非核心賽道的替代,而非在核心戰場戰勝了輝達,雙方的差距還是在擴大中。核心影響與戰略結論1.短期影響有限,長期拖累生態建立:短期內,H200解決了中國高端AI算力的燃眉之急,利多中國AI應用層發展。中國國產晶片因基數低,在政策保護和特定市場驅動下,仍將保持增速。但長期看,H200的**“溫水池效應”** 將極大緩解中國廠商和開發者逃離CUDA生態的緊迫感,顯著拖慢中國自主AI晶片軟硬體生態的成熟速度。2.美國實現“一石三鳥”:l經濟上:清理舊款庫存,獲取巨額利潤及25%分成。l技術上:維持代差,用舊款產品抑制中國自主技術迭代。l戰略上:延續中國對其技術體系的依賴,將中國鎖定在產業鏈的應用層,而非基礎架構層。3.對中中國國產業的警示:H200的放行是一次清晰的戰略訊號。它意味著,依靠外部提供“次優解”來滿足發展需求,將永遠無法實現真正的科技自主。中國AI晶片產業的最終破局,不在於造出與H200參數接近的晶片,而在於能否建構一個足以讓開發者心甘情願離開CUDA的、有生命力的完整生態。這需要政策、市場、技術研發前所未有的協同與定力。而且這一次H200的解禁,筆者推演過程看到的是,雖然2026年中國國產AI晶片的高增長不受影響,但2027年中國國產AI晶片有可能不再高速增長。主要生態建立不足,且晶片製程的受限,軟硬體的差距都在擴大中,即便中國國產晶片在系統的提升是下了很大功夫,但也無法逃脫製程落後的物理定律。輝達H200獲准對華銷售,是一場精心計算的戰略妥協。它為中國AI產業提供了短期的算力緩解,但同時也套上了一副更為精緻的生態枷鎖。中國若滿足於此“溫水”,則自主生態的建立將前路漫漫;唯有保持戰略清醒,堅持對基礎生態的投入,方能在長遠的競爭中贏得主動。 (Techcoffee)
H200獲批出口中國,輝達GPU:迎來新爭議
據川普最新社交媒體消息透露,美國政府計畫允許輝達(Nvidia)對華出口其H200晶片,這是這家AI晶片設計公司為維持其在世界第二大經濟體的市場准入所做努力的最新轉折。美國商務部計畫批准許可,允許輝達向中國出售其H200。其中一位知情人士稱,該晶片的性能高於此前獲准銷售的H20,但不如該公司今年發佈的頂級Blackwell產品,也不如明年將推出的Rubin系列晶片。值得一提的是,後面這兩款產品還是在限製出售名單裡。知情人士稱,此舉是在美國總統川普與輝達首席執行長黃仁勳(Jensen Huang)上周會晤之後做出的,兩人在會晤中討論了H200的出口問題。熟悉相關討論的知情人士稱,包括AI總監大衛·薩克斯(David Sacks)和商務部長霍華德·盧特尼克(Howard Lutnick)在內的一些官員支援出口H200,因為這可能是一個很好的折衷方案,既能讓輝達與中國公司競爭,又不會讓中國在AI領域超越美國。今年早些時候,川普政府批准對華出口H20,作為交換,銷售額的15%將上繳美國政府,但中國方面卻以所謂的安全擔憂為由,告知本國公司不要使用這些晶片。一些分析師認為,中方的這一資訊是一種談判策略,目的是為了獲得像H200這樣更好的晶片。目前尚不清楚這項15%的協議是否會適用於H200的銷售。智庫Institute for Progress估計,H200的性能幾乎是H20的六倍。輝達新一代產品的性能通常會有巨大提升。拜登政府對關鍵晶片實施了出口限制,許多分析師認為這些限制措施限制了中國國內半導體和AI能力的發展。投資者將關注中國對H200預期獲批的反應,以及美國能獲得什麼回報(如果有的話)。此舉可能為輝達帶來數以十億美元計的銷售額,並幫助那些一直難以獲得頂級晶片來訓練其模型的中國科技巨頭。黃仁勳稱,應允許輝達在中國市場競爭,因為中國擁有許多世界頂尖的AI研究人員,而美國應該希望他們使用美國技術。黃仁勳也明確表示,中國的AI需求規模使該國對輝達的未來至關重要。黃仁勳上周在智庫戰略與國際問題研究中心(CSIS)的一場活動上說:“你無法取代中國。”毫無疑問,在H200出口中國的問題上,黃仁勳獲得了勝利。但對輝達來說,還有另外的問題需要應對。一位博主質疑GPU出貨量在社交媒體上,有一位自稱律師的博主Kakashii一直對輝達的GPU有很多的質疑。最近,他在論壇上發表了一篇詳細的帖子,引發了人們對輝達最新一代 GPU 的重新審視。在文章中,Kakashii質疑了黃仁勳關於 Blackwell GPU 已出貨 600 萬塊的說法。據CNBC報導,黃仁勳在 2025 年 10 月表示,對輝達晶片的需求仍在激增,並指出該公司在過去四個季度中已出貨 600 萬塊 Blackwell GPU 。當時,他還表示,輝達預計Blackwell 系列和明年的Rubin系列GPU 的總銷售額將達到 5000 億美元。根據 Kakashii 在 X 上分享的分析,自 Blackwell 發佈以來,輝達報告的 1110 億美中繼資料中心收入似乎與該出貨量不符。即使考慮到輝達在 2024 年第四季度 Blackwell 營收中披露的超過 100 億美元的收入,該帖子認為這些數字僅代表大約 400 萬台裝置,留下了數十萬到數百萬台 GPU 的潛在缺口。以下為該博主的原文摘譯:由於 Blackwell 推出,輝達報告 GPU 資料中心收入達到 1110億美元。如果簡單計算,自 Blackwell 開始出貨以來,資料中心報告的 1110 億美元收入中 600 萬塊 Blackwell GPU 並不匹配,因為這只代表 250 萬到 350 萬顆 Blackwell 晶片。讓我們試著幫輝達,把他們 2024 年第四季度報告的“Blackwell 收入超過 100 億”加起來。這使得總收入超過 1210 億美元。超過 100億 的晶片數量大約是 25 萬到 33 萬,理想情況下,這讓我們擁有近 400 萬塊 Blackwell GPU,但還是不匹配。好,我們再試一次計算。我們再假設黃仁勳說的是實話,他指的是所有細分市場中Blackwell 晶片的總銷量。這意味著 250 萬到 350 萬塊 Blackwell 晶片收入歸入 1110億,而剩餘的 350 萬到 250 萬塊則用於遊戲及其他細分領域。因為我們相信 Jensen,並且試圖找出我的計算不符的地方,我假設他指的是所有細分市場,也就是所有出貨 GPU 的 20%,而另外 80%用於資料中心。這意味著即使我們把輝達在 Blackwell 的第四季度收入算進去,假設 80%流向資料中心,我們還有 50 萬到 80 萬塊 GPU 的差距。但還是不匹配。為了印證這個說法,Kakashii又從能源方面進行了說明。如他所說,黃仁勳曾表示,自 2025 年 1 月以來,輝達已經出貨了 600 萬塊 Blackwell GPU。大約 65%到 70%的 GPU 會送到美國的資料中心。要為這 600 萬 GPU 中 65%到 70%(約 390 萬到 420 萬 GPU)供電,你需要大約 85吉瓦(gigawatts :GW)) 到 11 吉瓦的資料中心容量。(供參考,這個發電量大致相當於新加坡的總發電能力,或大約十座標準核反應堆。)2024年至2025年間,美國在2024年建成了3.8至4.2吉瓦,2025年估計為4.5至5.0吉瓦,合計8.5吉瓦(先不考慮因電力延遲,實際交付的約一半在日歷年內完成)。所以我們充其量只有 8.5 GW的大量,這大致是為美國所有 Blackwell 晶片供電的最低限度。只有當我們假設美國只有配備 Nvidia 晶片的資料中心(不包括 AMD、TPU 及其他沒有 Nvidia 的資料中心),並且只有 Blackwell 在 2024 年建成的資料中心中安裝過,並且他們是在等待 2025 年 Blackwell 晶片執行階段,數學才是相符的。根據聯邦能源監管委員會(FERC)的資料,美國在 2025 年 1 月至 8 月間安裝了近 26 吉瓦的新發電容量,略高於去年同期的約 23 吉瓦。在26吉瓦中,3吉瓦為風能,3.7吉瓦天然氣,20吉瓦太陽能,0吉瓦核能。我會相信Jensen,因為在這篇文章裡,我們只是相信Jensen的話:未來6到7年,我們將看到一堆小型核反應堆,我們都會成為發電廠,就像某個人的農場一樣。所以我假設他指的是從2026年1月開始,因為到目前為止,美國在2025年部署的核能是0吉瓦的。這意味著,如果所有已建成、部署並計畫今年年底完工的資料中心都按時完工,那麼僅從數字上(簡單計算,我不清楚實際分配情況)來看,今年所有建成的天然氣都分配給了資料中心消費,其中約80%的風能或約25%的太陽能。大空頭Burry 的出擊上周末,因預測 2008 年房地產崩盤而名聲大噪的投資者麥可·貝瑞(Michael Burry)要求提供輝達公司囤積GPU 的證據。其實早在2023年和2024年,貝瑞就曾警告投資者不要對科技行業過度樂觀。這些警告並未點名批評輝達,而是以評論估值、利率和投機等話題的形式在市場上廣泛傳播。公眾仍然將他與宏觀經濟的悲觀論調聯絡在一起,而不是與人工智慧經濟學聯絡起來。到2024年底,形勢開始轉變。海外監管檔案顯示,Michael Burry主導的Scion Asset Management買入了大量與輝達和Palantir掛鉤的看跌期權。這筆交易低調、規模異常,而且出手較早。他當時並未與輝達發生衝突,而是押注人工智慧的發展將會遭遇阻力。2025年11月,貝瑞詳細闡述了他認為目前對人工智慧熱潮理解方式存在的根本性缺陷。他的論點涵蓋了會計選擇、成本假設、企業激勵機制以及高資本支出技術周期的心理因素。這些缺陷並非僅限於輝達,但該公司處於風口浪尖,因為它提供了推動這場競賽的硬體。他的擔憂很快引起了輝達的重視並做出了回應。貝瑞觀點的核心在於人工智慧硬體的使用壽命。購買先進GPU的公司通常會將這些資產按年折舊。這種折舊方式可以將成本分攤到不同時期,從而降低短期支出並提高帳面收益。貝瑞認為這種做法掩蓋了經濟真相。他認為人工智慧硬體的更新換代速度太快,不值得採用如此長的折舊周期。他估計,更合理的使用壽命可能接近三年。這種差異至關重要,因為這些晶片價格昂貴。較長的折舊期會降低每個季度的帳面成本。較短的折舊期則會降低許多人工智慧採用者的收益,並縮小其人工智慧投資的表面回報。如果這些公司指望使用壽命只有一半的資產來獲得六年的生產力,那麼它們的實際利潤率可能遠低於表面值。這並非欺詐指控,而是關於發展速度的爭論。人工智慧硬體發展日新月異,今天發佈的晶片很快就會與後續產品展開競爭。如果折舊計畫與這一現實不符,最終會導致資產減值或新採購熱情下降。貝瑞的分析認為,這種差距可能在2026年至2028年期間顯現。對於一家依賴客戶快速積極採購的公司而言,增長放緩的影響可能非常顯著。一些最具爭議的評論涉及供應商融資或循環融資的概念。像吉姆·查諾斯這樣的分析師也表達了類似的擔憂,即人工智慧生態系統中可能存在一些激勵機制或融資結構,會人為地製造需求。在這種觀點看來,受益於人工智慧基礎設施增長的公司可能以某種方式幫助買家抬高了當前的銷售額。輝達對此予以堅決否認。該公司聲明,它不會參與此類行為,其需求源於真實、獨立的購買決策。這場爭論持續不斷,是因為供應商融資模式在其他行業早已存在。當需求激增時,一些公司會為客戶提供支援以維持增長勢頭。人工智慧領域是否存在類似模式仍不確定。在沒有證據的情況下,這場爭論仍然停留在懷疑與否認的層面。未來任何證實都將產生重大影響。目前,這仍然是更廣泛討論中一個懸而未決的問題。投資者現在都在密切關注各種跡象。超大規模資料中心營運商在裝置使用壽命和減值方面的決策至關重要。人工智慧資本支出的速度至關重要。是否存在任何融資安排也至關重要。問題不在於人工智慧是否會繼續成為技術領域的核心,而在於當前的支出速度是否與長期價值創造相匹配。人工智慧晶片折舊速度引發的會計風波在今天,華爾街日報也發佈了一個文章,探討了人工智慧晶片折舊速度引發的會計風波。WSJ表示,關於輝達的會計處理方式,一場爭論正在激烈進行。他們指出,科技公司正在斥巨資研發晶片和其他裝置。這一次,一些人工智慧公司的批評者可能有些言過其實了。投資者很少會對固定資產的合理折舊時間表這樣看似平淡無奇的話題如此關注。但當少數幾家全球最大的公司在人工智慧基礎設施上的投入高達數千億美元時,市場自然會密切關注。在2015年電影《大空頭》中由克里斯蒂安·貝爾飾演的著名投資經理麥可·貝瑞,最近又火上澆油。他在上個月的一篇文章中寫道:“延長資產使用壽命可以減少折舊費用,增加表面利潤。這是現代最常見的欺詐手段之一,會導致資產估值過高和利潤虛增。”“無論這種批評是否合理,我們都需要從不同的角度看待它。”WSJ表示。例如,今年Meta Platforms公司將其大部分伺服器和網路資產的預計使用壽命延長至5.5年。此前,該公司曾表示其預計使用壽命為4至5年。而就在2020年,Meta還表示其預計使用壽命最短僅為3年。Meta公司表示,最新延期使其2025年前九個月的折舊費用減少了23億美元。這筆金額不小。但為了更直觀地理解其規模,該公司此前的折舊總費用接近130億美元,而稅前利潤則超過600億美元。Alphabet、微軟以及亞馬遜等公司對類似資產的使用壽命也比五年前更長。Alphabet 和微軟的使用壽命均為六年,高於 2020 年的三年。亞馬遜在 2020 年採用的是四年,並計畫到 2024 年延長至六年,但今年將部分伺服器和網路裝置的使用壽命縮短至五年。華爾街日報指出,公司將折舊費用計入損益,是因為其固定資產最終會損耗或過時。這種做法確保資本投資成本能夠隨著時間的推移在財務報表中得到確認。管理層的任務是選擇一個年限,逐步將這些折舊費用攤銷出去。多年來,大型科技公司延長其正在折舊的資產的使用壽命,一直備受投資者關注。這不難理解,因為這樣做可以將費用轉移到未來,從而提高當期收益。管理層僅僅通過修改會計估算,就能輕而易舉地將年度收益增加數十億美元,這種做法即便稱得上大膽,也顯得過於激進。但歸根結底,更重要的問題或許不在於合適的折舊年限,而在於合適的折舊方法。目前普遍採用的是直線法,即對同一筆購置的資產,每年的折舊費用都相同。然而,某些類型的資產價值在早期會急劇下降,然後趨於穩定,並沿著可預測的曲線緩慢下降。例如,據追蹤輝達晶片價格的Silicon Data公司稱,最近一台使用三年的H100系統的平均轉售價格約為全新H100價格的45%。在這種情況下,所謂的加速折舊法可能比直線折舊法更能反映經濟現實。採用六年折舊期,折舊費用在經濟效益消耗較快的初期會較高,而在後期則會較低。不過,在這種情況下,差別不會太大。如果採用直線折舊法,第三年的累計折舊額將不到購買價格的一半。如果採用加速折舊法,累計折舊額會略高於一半。而大型人工智慧超大規模資料中心的投資者們也深知,任何對當前投資高回報的預期都需數年之後才能實現。從根本上講,公司財務報表中的大多數數字都是基於估計、猜測和假設。折舊這項費用也是一種人為建構的概念,就像會計中的許多其他概念一樣。精確性是罕見的。沒有人能夠確切地知道一家公司的固定資產每年貶值多少。公司管理層可能並不清楚特定資產的使用壽命,尤其是一些高需求的技術裝置。如果資產價值嚴重受損,管理層理應計提更大額的減值準備。但通常情況下,減值準備只有在公司股價暴跌之後才會進行,而“七俠蕩寇志”顯然並非如此。如果投資者將來認為大量人工智慧投資被浪費了,那並非因為企業選擇的折舊方法。儘管人們有充分的理由質疑科技巨頭如何為其人工智慧投資進行會計核算,但折舊之爭並不會改變最終結果。 (半導體行業觀察)